Abschlussarbeiten

Gerne betreuen wir Abschlussarbeiten — sowohl im Bachelor als auch im Bereich des Masters. Bei der Themenauswahl sind wir dabei offen für eigene Themenvorschläge. Für eine inhaltlich gute Betreuung sollte ein Thema aber doch nahe an unseren Schwerpunkten liegen — also sehr allgemein im Bereich der Künstlichen Intelligenz und des Maschinellen Lernens, mit einem besonderen Fokus auf Deep Reinforcement Learning, Robotik, aber aktuell darüber hinaus auch Neuronale Netzwerke und Large Language Models als ein Anwendungsbereich von diesen. Sprechen Sie uns gerne an und schreiben uns eine Mail.

Im folgenden finden Sie eine Auswahl möglicher Themen.

Thema Zuordnung Beschreibung
Entwicklung eines neuronalen Netzes zur Vorhersage von Bodenkontakt bei laufenden Robotern Machine Learning / Neuronale Netze [Bachelor]

Ziel: Entwicklung eines neuronalen Netzes zur Vorhersage des Bodenkontakts von Robotern, basierend auf Servomotordaten.

Ansatz: Analyse von Servomotordaten und Bodenkontaktsensordaten eines laufenden Roboters; Entwicklung und Training eines neuronalen Netzes zur Vorhersage des Bodenkontakts.

Voraussetzungen: Kenntnisse in Machine Learning, Robotik und Programmierung (vorzugsweise Python).

Vergleich von State Space Modellen zur Vorhersage von Zeitreihen Neural Networks, Deep Learning [Bachelor]

Ziel: Evaluierung der Vorhersagegüte von State Space Modellen wie SMamba, TimeMachine und TwinMamba zur Vorhersage von Zeitreihen.

Ansatz: Detaillierte Untersuchung und Vergleich der theoretischen Grundlagen; Implementierung von mind. 1 Modell zur Vorhersage von Zeitreihen; Durchführung von Experimenten zur Bewertung der Vorhersagegenauigkeit und Leistungsfähigkeit des Modells/der Modelle anhand von Benchmark-Datensätzen; Vergleich der Ergebnisse und Analyse der Stärken und Schwächen der einzelnen Modelle.

Voraussetzungen: Kenntnisse in Deep (supervised) Learning, Programmierkenntnisse (bevorzugt Python, Pytorch/Tensorflow).

Implementierung und Auswertung von Positional Encodings für Time Series Forecasting mit Transformern Neural Networks, Deep Learning [Bachelor]

Ziel: Bewertung der Wirksamkeit von Positional Encodings bei der Vorhersage von Zeitreihen mit Transformern. Identifikation und Analyse von Schwachstellen der eingesetzten Methoden.

Ansatz: Verständnisaufbau für Transformer-Modelle und deren Anwendung im Bereich der Zeitreihen-Vorhersage; Untersuchung bestehender Ansätze des Positional Encodings; Experimenten zur Bewertung des Einflusses verschiedener Positional Encodings auf die Vorhersagegenauigkeit und Leistungsfähigkeit der Modelle anhand von Benchmark-Datensätzen; Identifikation und Analyse der Schwachstellen der verwendeten Methoden und Modelle; ggf. Vorschläge für mögliche Verbesserung.

Voraussetzungen: Kenntnisse in Deep (supervised) Learning, Programmierkenntnisse (bevorzugt Python, Pytorch/Tensorflow).

Integration von ChatGPT in die Planung und Steuerung von Robotern

Large Language Models, Machine Learning [Master]

Ziel: ein Robotik-Steuerungssystem, das in einem 2-Systems-Ansatz ChatGPT für die High-Level Planung nutzt, unterstützt durch Deep Reinforcement Learning (DRL) auf der Ausführungsebene.

Ansatz: Integration von ChatGPT für übergeordnete Entscheidungsfindung und DRL für die Ausführung, wobei die Belohnungsstruktur von ChatGPT geformt wird. Einsatz von Retrieval-Augmented Generation (RAG) zur Nachverfolgung von Fähigkeiten und Historie.

Voraussetzungen: Programmierung in Python, Kenntnisse in DRL, RAG-Modellen.

Berücksichtigung sensorischer Verzögerungen in Deep Reinforcement Learning Deep Reinforcement Learning [Bachelor, Master]

Ziel: Erforschung der Auswirkungen sensorischer Verzögerungen auf dezentrale und zentrale DRL-Systeme – deren Lernverhalten und die Robustheit des gelernten Verhaltens.

Ansatz: Vergleich von dezentralem DRL mit geringeren sensorischen Verzögerungen und zentralem DRL unter Einbeziehung größerer Verzögerungen. Analyse des Einflusses dieser Verzögerungen auf die Leistung und das Lernverhalten.

Voraussetzungen: Kenntnisse in DRL, Programmierung Python und sensorischer Datenverarbeitung.

Entwicklung eines model-basierten Deep Reinforcement Learning-Systems mit einem differenzierbaren neuronalen Netzwerk als Körpermodell für Bewegungslernen Model-based Deep Reinforcement Learning, Robotic Manipulation, Künstliche Intelligenz [Master]

Ziel: Entwicklung eines model-basierten Deep Reinforcement Learning (DRL)-Systems, das ein differenzierbares neuronales Netzwerk als Körpermodell verwendet. Das primäre Ziel ist es, komplexe Bewegungen wie Manipulation oder Greifen von Objekten zu erlernen und effizient umzusetzen.

Ansatz: Einsatz eines differenzierbaren neuronalen Netzwerks, das das physische Modell des Roboters oder der manipulativen Einheit repräsentiert. Das DRL-System wird dann verwendet, um optimale Steuerstrategien für Aufgaben wie Greifen oder Manipulation zu lernen, wobei das neuronale Netzwerk die zugrundeliegenden physischen Interaktionen simuliert.

Voraussetzungen: Deep Learning und Reinforcement Learning, Programmierkenntnisse in Python, Grundverständnis der Robotik und kinematischen Modelle

Intrinsic Motivation zur Exploration in Deep Reinforcement Learning

Deep Reinforcement Learning (DRL), Machine Learning, KI

Ziel: Entwicklung und Testung eines DRL-Modells, das Exploration durch Intrinsic Motivation belohnt. Dabei soll die Effizienz und Leistungsfähigkeit des Modells in verschiedenen Control Tasks im OpenAI Gym bewertet werden.

Ansatz: Einsatz von zwei zufällig initialisierten neuronalen Netzen zur Messung der Bekanntheit von Erfahrungen, wobei nur ein Netzwerk lernen darf. Dieser Prozess basiert auf der Methode der Random Network Distillation (RND), wobei das lernende Netzwerk sich dem nicht lernenden Netzwerk bei bekannten Erfahrungen annähert und somit neue Zustände erkannt werden können.

Voraussetzungen: Grundkenntnisse in Deep Learning und Reinforcement Learning, Vertrautheit mit der OpenAI Gym Umgebung

Anpassungsfähigkeit von Deep Reinforcement Learning bei sich ändernden internen Bedingungen in Simulationsumgebung Deep Reinforcement Learning, Robotik [Bachelor]

Ziel: Untersuchung der Anpassungsfähigkeit eins Deep RL Algorithmus zur Steuerung eines vierbeinigen Roboters in Simulationsumgebung bei variierenden internen Bedingungen wie wachsender Robotergröße oder Variation der Beinlänge.

Ansatz: Anpassung einer Simulationsumgebung mit zeitlicher Änderung des Roboters (curriculum). Darin Anwendung eines Feed-Forward Netzwerks als Control-Ansatz und Evaluierung durch Experimente zur Anpassungsfähigkeit an sich ändernde Bedingungen. Mögl. Erweiterung: Vergleich mit alternativem, Zustands-basiertem Netzwerk.

Voraussetzungen: Kenntnisse in Deep Reinforcement Learning und Robotik, Programmierkenntnisse (bevorzugt Python, Pytorch/Tensorflow). Erfahrung mit Gym von Vorteil.

Generierung und Anpassung von Reward Funktionen in Deep Reinforcement Learning durch Large Language Models Künstliche Intelligenz, Maschinelles Lernen [Bachelor, Master]

Ziel: Entwicklung eines Verfahrens, bei dem Large Language Models (LLM) genutzt werden, um Reward Funktionen für Deep Reinforcement Learning (DRL) aus sprachlichen Beschreibungen zu generieren.

Ansatz: Einsatz von LLMs zur Interpretation sprachlicher Beschreibungen und deren Übersetzung in Reward Funktionen. Experimentelle Anwendung und Anpassung dieser Reward Funktionen in Control Task-Szenarien aus der OpenAI Gym und  Evaluation.

Voraussetzungen: Deep Reinforcement Learning, Programmiererfahrung (Python), Grundlagenwissen LLMs

 

  • Abgeschlossene Arbeiten

    • Niklas Hellmann (Bachelor Thesis, 2023), Evaluation and Enhancement of Artificial Potential Fields for Path Planning in Dynamic Environments. 
    • Staislav Staykov (Bachelor Thesis, 2023), The Impact of Noisy Observations on Deep Deterministic Policy Gradient
    • Matthias Hering (Bachelor Thesis, 2023), 3D-Printed Robust Ground Contact Sensors for Hap-tic Feedback using Functional Materials.
    • Bastian Klein (Bachelor Thesis, 2023), Leveraging MATLAB Simulink for Hexapod Robotics: Simulation, Control and Learning.
    • Rama Eissa (Bachelor Thesis, 2023), Integration of SLAM with Semi-Autonomous control mechanism based on hand gestures: A Study on a TurtleBot3 Burger Robot in Gazebo.
    • Sanando Schwenkel (Bachelor Thesis, 2023), An Abstract Model of an Adaptive Hexapod Ro-bot in Simulink and Stateflow.
    • Wadhah Zai El Amri (Master Thesis, 2022), Hierarchical Decentralized Deep Reinforcement Learning Architecture 
for a Simulated Four-Legged Agent.
    • Janneke Simmering (Master Thesis, 2021), Framework for emergent locomotion on a hexapod robot.
    • Luca Hermes (Master Thesis, 2021) Encoding Spatial and Temporal Features of Moving Skeletons using Geometric Deep Learning.
    • Balavivek Sivanantham (Master Thesis, 2020), Predictive Analysis on Rework process in Automotive Assembly line using Deep Learning.
    • Arsalane Arrach (Master Thesis, 2020), Towards practical and realistic approaches for systems of shared autonomous vehicles: A decentralized solution using hierarchical multi-agent reinforcement learning.
    • Kai Konen (Master Thesis, 2020), Decentralized Deep Reinforcement Learning for the Simulation of Six-Legged Locomotion.
    • Florian Raskob (Bachelor Thesis, 2019), Time series analysis and classification with ANN: Exploring characteristics of golf puts in kinematic and eye movement data. 
    • Luca Lach (Master Thesis, 2019), Guiding Representation Learning in Deep Generative Models with Policy Gradients.
    • Luca Hermes (Bachelor Thesis, 2018), Toward a Biomimetic Johnston’s Organ for Contact Distance Estimation.
      Philipp Lücking (Master Thesis), An autonomous modular robotic system for child-robot interaction.
    • Manuel Baum (Master Thesis), Modeling kinematics of a redundant manipulator using population coding and the MMC principle.